医学图像分割的深度学习模型可能会出乎意料地且出乎意料地失败,而与训练图像相比,在不同中心获得的病理案例和图像,标签错误违反了专家知识。此类错误破坏了对医学图像细分的深度学习模型的可信赖性。检测和纠正此类故障的机制对于将该技术安全地转化为诊所至关重要,并且可能是对未来人工智能法规(AI)的要求。在这项工作中,我们提出了一个值得信赖的AI理论框架和一个实用系统,该系统可以使用后备方法和基于Dempster-Shafer理论的失败机制增强任何骨干AI系统。我们的方法依赖于可信赖的AI的可行定义。我们的方法会自动放弃由骨干AI预测的体素级标签,该标签违反了专家知识,并依赖于这些体素的后备。我们证明了拟议的值得信赖的AI方法在最大的报告的胎儿MRI的注释数据集中,由13个中心的540个手动注释的胎儿脑3D T2W MRI组成。我们值得信赖的AI方法改善了在各个中心获得的胎儿脑MRI和各种脑异常的胎儿的最先进的主链AI的鲁棒性。
translated by 谷歌翻译
限制机器学习系统的故障对于安全至关重要的应用至关重要。为了提高机器学习系统的鲁棒性,已提出了分配鲁棒优化(DRO)作为经验风险最小化(ERM)的概括。然而,由于与ERM的随机梯度下降(SGD)优化器相比,由于可用于DRO的优化器的相对效率相对效率相对低效率,因此在深度学习中的使用受到了严格的限制。我们建议使用硬度加权采样的SGD,这是机器学习中DRO的原则性高效优化方法,在深度学习的背景下特别适合。与实践中的硬示例挖掘策略类似,所提出的算法可以直接实施和计算,并且与用于深度学习的基于SGD的优化器一样有效,需要最小的开销计算。与典型的临时硬采矿方法相反,我们证明了我们的DRO算法的收敛性,用于过度参数化的深度学习网络,并具有RELU激活以及有限数量的层和参数。我们对MRI中胎儿脑3D MRI分割和脑肿瘤分割的实验证明了我们方法的可行性和有用性。使用我们的硬度加权采样进行训练,最先进的深度学习管道可改善自动胎儿脑中解剖学变异的鲁棒性3D MRI分割,并改善了对脑肿瘤分割的图像方案变化的鲁棒性。我们的代码可从https://github.com/lucasfidon/hardnessweightedsampler获得。
translated by 谷歌翻译
主动学习(AL)算法旨在识别注释的最佳数据子集,使得深神经网络(DNN)在此标记子集上培训时可以实现更好的性能。 AL特别有影响的工业规模设置,其中数据标签成本高,从业者使用各种工具来处理,以提高模型性能。最近自我监督预测(SSP)的成功突出了利用丰富的未标记数据促进模型性能的重要性。通过将AL与SSP结合起来,我们可以使用未标记的数据,同时标记和培训特别是信息样本。在这项工作中,我们研究了Imagenet上的AL和SSP的组合。我们发现小型玩具数据集上的性能 - 文献中的典型基准设置 - 由于活动学习者选择的类不平衡样本,而不是想象中的性能。在我们测试的现有基线中,各种小型和大规​​模设置的流行AL算法未能以随机抽样优于差异。为了解决类别不平衡问题,我们提出了平衡选择(基础),这是一种简单,可伸缩的AL算法,通过选择比现有方法更加平衡样本来始终如一地始终采样。我们的代码可用于:https://github.com/zeyademam/active_learning。
translated by 谷歌翻译
在许多情况下,增强学习(RL)已被证明是有效的。但是,通常需要探索足够多的国家行动对,其中一些对不安全。因此,其应用于安全至关重要的系统仍然是一个挑战。解决安全性的越来越普遍的方法涉及将RL动作投射到安全的一组动作上的安全层。反过来,此类框架的困难是如何有效地将RL与安全层搭配以提高学习绩效。在本文中,我们将安全性作为基于型号的RL框架中的可区分强大控制式 - 助推器功能层。此外,我们还提出了一种模块化学习基本奖励驱动的任务的方法,独立于安全限制。我们证明,这种方法既可以确保安全性,又可以有效地指导一系列实验中的训练期间的探索,包括以模块化的方式学习奖励时,包括零拍传递。
translated by 谷歌翻译